همه ما در ویندوز با نرمافزارهای دریافت وبسایت كار كردهایم، دستكم اسمWebZip یا WebsiteDownloader بهگوشمان خورده است و كمابیش با كارشان آشنایی داریم. اما برای دریافت كامل یك وبسایت در لینوكس چطور میتوان این كار را كرد؟
برای دریافت كامل یك وبسایت، بهمنظور مشاهده آفلاین یا هر چیز دیگری، با كمك wget میتوان كار را پیش برد، این دستور را ببینید:
\wget $
\ُ-recursive-
\ --no-clobber
\ --page-requisites
\ --html-extension
\ --convert-links
\ --restrict-file-names=windows
\ --domains website.org
\ --no-parent
www.website.org/tutorials/html/
این دستور وبسایت زیر را به طور كامل دانلود میكند.
www.website.org/tutorials/html/
انتخابهایی (Option) كه در این دستور استفاده كردیم، بدین شرح است:
recursive -- : تمام وبسایت را دانلود كن.
domains website.org-- : لینكهای خارج از دومین website.org را دنبال نكن.
page-requisites --: تمام عناصر موجود در صفحه را دریافت كن (تصاویر، css و از این دست چیزها).
html-extension --: فایل را با پسوند .html ذخیره كن.
convert-links--:لینكها را طوری تبدیل كن كه بشود بهطور آفلاین ازشان استفاده كرد.
restrict-file-names=windows --: اسم فایلها را طوری عوض كن كه در ویندوز هم كار كنند.
no-clobber--:هیچ فایلی را بازنویسی نكن (در مواردی بهكار میرود كه دانلود قطع شده باشد و بخواهد مجدداً از سر گرفته شود).
no-parent --: یعنی مسیرهای بالاتر از/tutorials/html را باز نكن.
فرصت استثنایی کسب و کار اینترنتی
:: موضوعات مرتبط:
معرفی نرم افزار ,
,
:: برچسبها:
نرم ازارهای مهم ,
نرمافزارهای جالب ,
معرفی نرم افزار ,
:: بازدید از این مطلب : 422
|
امتیاز مطلب : 22
|
تعداد امتیازدهندگان : 5
|
مجموع امتیاز : 5